Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France

Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France

⏯️

18

Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Next s’est rendu au lancement de la version française de Pause IA, mouvement international qui appelle à cesser l'entraînement des systèmes d'IA « les plus dangereux » en attendant de mieux en maîtriser les risques.

« Dangers de l’intelligence artificielle : la France dans le déni ? » Pour son lancement officiel, ce 10 septembre, Pause IA veut marquer les esprits et cela se sent autant dans le titre de sa conférence que dans les prises de paroles de ses membres et invités.

Cofondée avant l’été par le data scientist Maxime Fournes et le musicien Gilles Breda, Pause IA est la version française de l’organisation internationale Pause AI, fondée début 2023 aux Pays-Bas et déjà riche de plusieurs dizaines de communautés affiliées, principalement ouvertes en Europe de l’Ouest et aux États-Unis.

Il reste 86% de l'article à découvrir. Abonnez-vous pour ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Commentaires (18)


Je leur souhaite bien du courage.
La cause est intéressante mais les moulins tournent déjà trop vite.
Aucune chance qu'ils arrivent à convaincre les chinois et les américains. Donc si l'Europe fait cette "pause", ça veut juste dire qu'on laisse les autres continuer sans nous. Ça me semble beaucoup plus faisable de contrôler la direction en étant à l'intérieur qu'en le laissant aux autres.
Exact, c'est d'ailleurs pour ça qu'il est absurde d'interdire aux dictatures de développer leur puissance nucléaire.
C'est quoi les « risques existentiels » ?

(bon, après une recherche rapide sur WP, j'ai trouvé ça)
L'ia n'a d'applications dangereuses qu'à condition qu'on continue à tout connecter et tout surveiller électroniquement dans nos quotidiens, administrations, espaces publics.

Ils prennent peut être le pb à l'envers ; l'IA n'a pas un potentiel plus problématique qu'un gouvernement humain autocratique, des administrations répressives en roue libre, des groupes privés violents etc.
Eventuellement ça peut être un outil qui rend plus problématique encore les cas cités ci dessus.
L'ia n'a d'applications dangereuses qu'à condition qu'on continue à tout connecter et tout surveiller électroniquement dans nos quotidiens, administrations, espaces publics.


Les deepfake n'ont pas besoin de "tout connecter et tout surveiller" pour exister et être dangereux

NiCr

L'ia n'a d'applications dangereuses qu'à condition qu'on continue à tout connecter et tout surveiller électroniquement dans nos quotidiens, administrations, espaces publics.


Les deepfake n'ont pas besoin de "tout connecter et tout surveiller" pour exister et être dangereux
Pourquoi c'est dangereux les deepfake ?

En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.

fred42

Pourquoi c'est dangereux les deepfake ?

En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.
Pourquoi c'est dangereux les deepfake ?


Parce que ça peut être utilisé pour faire diffuser de faux messages.

Exemples :
- un politicien A qui crée un deepfake de son opposant B où B fait des choses qui poussent ses électeurs à voter pour A à la place
- un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre
...

La série The Capture décrit tout cela de manière pertinente https://www.imdb.com/title/tt8201186/
En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.


A moins d'isoler physiquement tous les humains, ce n'est pas l'absence de communication électronique qui empêchera la diffusion d'un message issu d'un deepfake
Et je ne pense pas que le propos de @yvan était "de toute façon sans Internet, l'IA n'est pas un danger"

NiCr

Pourquoi c'est dangereux les deepfake ?


Parce que ça peut être utilisé pour faire diffuser de faux messages.

Exemples :
- un politicien A qui crée un deepfake de son opposant B où B fait des choses qui poussent ses électeurs à voter pour A à la place
- un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre
...

La série The Capture décrit tout cela de manière pertinente https://www.imdb.com/title/tt8201186/
En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.


A moins d'isoler physiquement tous les humains, ce n'est pas l'absence de communication électronique qui empêchera la diffusion d'un message issu d'un deepfake
Et je ne pense pas que le propos de @yvan était "de toute façon sans Internet, l'IA n'est pas un danger"
[un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre]

Dans ce cas ça fait des décennies que ça existe. Se souvenir de la guerre en irak des USA sur de fausses allégations d'armements chimiques, se souvenir de la riche production de médias retouchés de l'URSS où les dignitaires en disgrâce disparaissaient des photos/vidéos etc.

Sur ce sujet ce ne sont pas les technologies grand public le pb. Et les états n'accepteront jamais d'être contraints par des lois civiles sur ce genre d'usage dans le cadre de leurs intrigues politiques donc on peut prononcer tous les moratoires qu'on veut, ça ne s'applique pas aux services secrets.
Modifié le 12/09/2024 à 15h30

Historique des modifications :

Posté le 12/09/2024 à 15h29


[- un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre]

Dans ce cas ça fait des décennies que ça existe. Se souvenir de la guerre en irak des USA sur de fausses allégations d'armements chimiques, se souvenir de la riche production de médias retouchés de l'URSS où les dignitaires en disgrâce disparaissaient des photos/vidéos etc.

Sur ce sujet ce ne sont pas les technologies grand public le pb. Et les états n'accepteront jamais d'être contraints par des lois civiles sur ce genre d'usage dans le cadre de leurs intrigues politiques donc on peut prononcer tous les moratoires qu'on veut, ça ne s'applique pas aux services secrets.

yvan

[un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre]

Dans ce cas ça fait des décennies que ça existe. Se souvenir de la guerre en irak des USA sur de fausses allégations d'armements chimiques, se souvenir de la riche production de médias retouchés de l'URSS où les dignitaires en disgrâce disparaissaient des photos/vidéos etc.

Sur ce sujet ce ne sont pas les technologies grand public le pb. Et les états n'accepteront jamais d'être contraints par des lois civiles sur ce genre d'usage dans le cadre de leurs intrigues politiques donc on peut prononcer tous les moratoires qu'on veut, ça ne s'applique pas aux services secrets.
"Dans ce cas ça fait des décennies que ça existe."

Le problème n'est pas le principe, c'est l'échelle.
Quand tu vas pouvoir produire une fausse information 1000 fois plus vite et 1000 fois plus difficile à démonter qu'auparavant, cela devient tout simplement ingérable.

Sachant que le principe selon lequel il faut un effort 20 fois plus conséquent pour démonter une ânerie que pour la produire...

D'ailleurs on le voit déjà. Pour l'instant des youtubeurs s'amusent à créer des satires "pseudo-crédibles" en rappelant bien que c'est du fake et en poussant le curseur assez loin pour que quiconque connaisse les personnalités publiques mises en scène se doute que c'est chiqué.
Ce qui implique aussi que déjà actuellement si tu vois la vidéo mettant en scène un illustre inconnu, sauf à ce que des indices suffisamment évidents existent, tu ne sauras pas si c'est vrai ou non sans un examen approfondi. Ce que peu de personnes ont la compétence et le temps requis pour.

Citan

"Dans ce cas ça fait des décennies que ça existe."

Le problème n'est pas le principe, c'est l'échelle.
Quand tu vas pouvoir produire une fausse information 1000 fois plus vite et 1000 fois plus difficile à démonter qu'auparavant, cela devient tout simplement ingérable.

Sachant que le principe selon lequel il faut un effort 20 fois plus conséquent pour démonter une ânerie que pour la produire...

D'ailleurs on le voit déjà. Pour l'instant des youtubeurs s'amusent à créer des satires "pseudo-crédibles" en rappelant bien que c'est du fake et en poussant le curseur assez loin pour que quiconque connaisse les personnalités publiques mises en scène se doute que c'est chiqué.
Ce qui implique aussi que déjà actuellement si tu vois la vidéo mettant en scène un illustre inconnu, sauf à ce que des indices suffisamment évidents existent, tu ne sauras pas si c'est vrai ou non sans un examen approfondi. Ce que peu de personnes ont la compétence et le temps requis pour.
La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake. Passé une certaine qualité des algos, tout sera, par défaut, fake (je l'imagine comme une extension des filtres d'appareils photo aujourd'hui où toutes les images seront cadrées, éclairées, retouchées par IA sur le moindre terminal grand public).

Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose un souci de gouvernance libre (genre robots russes sur les réseaux sociaux africains) que les youtubeurs qui font dire des trucs cyniques et autoritaires à Macron ou le font danser en rave party.
Modifié le 12/09/2024 à 17h02

Historique des modifications :

Posté le 12/09/2024 à 16h57


La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake.
Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Posté le 12/09/2024 à 16h58


La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake.
Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose souci que les youtubeurs.

Posté le 12/09/2024 à 16h59


La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake.
Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose un souci de gouvernance libre (genre robots russes sur les réseaux sociaux africains) que les youtubeurs.

Posté le 12/09/2024 à 17h00


La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake.
Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose un souci de gouvernance libre (genre robots russes sur les réseaux sociaux africains) que les youtubeurs qui font dire des trucs cyniques et autoritaires à Macron ou le font danser en rave party.

Posté le 12/09/2024 à 17h01


La question d'avenir effectivement risque d'être plutôt de savoir certifier la véracité que de pouvoir démonter un fake.
Je ne vois pas d'alternative, à partir du moment où il y a possibilité de faire de la guerre de l'information, des états ou ONGs vont l'utiliser. Que ce soit interdit au grand public ou non. Que l'Europe l'interdise sur son sol ou non.

Actuellement et vraisemblablement à l'avenir aussi, c'est bien plus la désinformation étatique qui pose un souci de gouvernance libre (genre robots russes sur les réseaux sociaux africains) que les youtubeurs qui font dire des trucs cyniques et autoritaires à Macron ou le font danser en rave party.

NiCr

Pourquoi c'est dangereux les deepfake ?


Parce que ça peut être utilisé pour faire diffuser de faux messages.

Exemples :
- un politicien A qui crée un deepfake de son opposant B où B fait des choses qui poussent ses électeurs à voter pour A à la place
- un dirigeant qui crée un deepfake d'un dirigeant ennemi pour justifier une guerre
...

La série The Capture décrit tout cela de manière pertinente https://www.imdb.com/title/tt8201186/
En plus, la diffusion des deepfake a bien besoin de connectivité et peut être faite par un bot.


A moins d'isoler physiquement tous les humains, ce n'est pas l'absence de communication électronique qui empêchera la diffusion d'un message issu d'un deepfake
Et je ne pense pas que le propos de @yvan était "de toute façon sans Internet, l'IA n'est pas un danger"
Ce qui dangereux, ce n'est pas le deepfake mais que les gens croient n'importe quoi.

Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait. Ça peut se retourner contre A si les électeurs sont un peu intelligents, s'il ne le sont pas, pas la peine de deepfake pour les manipuler, on n'a qu'à voir la campagne US : Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient ou savent qu'il dit des conneries mais ils l'aiment juste pour ça.

Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.

Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde. Ils se tourneront vers les médias crédibles. Finalement, on y gagnera probablement.

Sans communication électronique, les deepfakes circuleraient très lentement et seraient encore plus inefficaces.

Le propos d'yvan est que si l'on ne connecte pas directement des IA et qu'on ne leur demande pas de piloter le monde réel, les IA ne sont pas un problème puisqu'elles ne peuvent pas intervenir directement sur celui-ci. Le problème est plutôt l'humain qui croit les IA sans recul.

fred42

Ce qui dangereux, ce n'est pas le deepfake mais que les gens croient n'importe quoi.

Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait. Ça peut se retourner contre A si les électeurs sont un peu intelligents, s'il ne le sont pas, pas la peine de deepfake pour les manipuler, on n'a qu'à voir la campagne US : Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient ou savent qu'il dit des conneries mais ils l'aiment juste pour ça.

Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.

Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde. Ils se tourneront vers les médias crédibles. Finalement, on y gagnera probablement.

Sans communication électronique, les deepfakes circuleraient très lentement et seraient encore plus inefficaces.

Le propos d'yvan est que si l'on ne connecte pas directement des IA et qu'on ne leur demande pas de piloter le monde réel, les IA ne sont pas un problème puisqu'elles ne peuvent pas intervenir directement sur celui-ci. Le problème est plutôt l'humain qui croit les IA sans recul.
"Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde."

Par rapport à ce que je vois autour de moi, ton propos est particulièrement optimiste.

fred42

Ce qui dangereux, ce n'est pas le deepfake mais que les gens croient n'importe quoi.

Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait. Ça peut se retourner contre A si les électeurs sont un peu intelligents, s'il ne le sont pas, pas la peine de deepfake pour les manipuler, on n'a qu'à voir la campagne US : Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient ou savent qu'il dit des conneries mais ils l'aiment juste pour ça.

Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.

Les gens vont vite apprendre que l'on fait des deepfakes et qu'il faut se méfier de ce qui circule sur des médias non fiables comme X ou autres vecteurs de merde. Ils se tourneront vers les médias crédibles. Finalement, on y gagnera probablement.

Sans communication électronique, les deepfakes circuleraient très lentement et seraient encore plus inefficaces.

Le propos d'yvan est que si l'on ne connecte pas directement des IA et qu'on ne leur demande pas de piloter le monde réel, les IA ne sont pas un problème puisqu'elles ne peuvent pas intervenir directement sur celui-ci. Le problème est plutôt l'humain qui croit les IA sans recul.
Dans ton premier exemple, B expliquera que c'est un faux et que ça doit être l'équipe de A qui l'a fait.


Pourquoi croire la parole de B plutôt que la vidéo partagée par A ?

Ah oui, évidemment, il suffit d'être "un peu intelligent" ! C'est si simple !
Trump raconte des âneries sans avoir besoin d'IA et tout un tas de gens le croient


Ce qui contredit la première phrase, puisque la parole d'une personne n'a pas plus de valeur qu'une vidéo d'une autre
Quant à ta série, il faut arrêter de croire que les séries ou les films sont la réalité, ce sont des fake, comme dans deepfake.


Tout d'abord il s'agit non pas de fake mais d’œuvres de fiction, c'est bien différent. Cela me surprend que vous ne sachiez pas la différence malgré votre intelligence.

Deuxièmement, vous faites preuve d'une mauvaise foi certaine en m'accusant de _croire_ à des œuvres de fiction.

Ce qui fait leur richesse est justement de créer des situations qui se réfléchissent sur le réel et amènent une réflexion sur celui-ci.

Cependant, j'imagine que seuls les faibles d'esprit se laissent à consommer de tels œuvres, pendant que les génies, sachant tout et maîtrisant tout, se contentent de cracher sur ces minables.

NiCr

L'ia n'a d'applications dangereuses qu'à condition qu'on continue à tout connecter et tout surveiller électroniquement dans nos quotidiens, administrations, espaces publics.


Les deepfake n'ont pas besoin de "tout connecter et tout surveiller" pour exister et être dangereux
Ils sont plus difficiles à produire de manière crédible si ce qu'ils créent est dans un environnement où aucune caméra n'aurait pu enregistrer quoi que ce soit.
Leur conséquences sont plus limitées dans un monde avec une pluralité d'expressions politiques et la séparation -réelle- des pouvoirs.
Et même les atteintes à l'intimité n'ont réellement de poids que dans un monde puritain, donc généralement structuré par des autorités illibérales.
Modifié le 12/09/2024 à 15h25

Historique des modifications :

Posté le 12/09/2024 à 15h22


Ils sont plus difficiles à produire de manière crédible si ce qu'ils créent est dans un environnement où aucune caméra n'aurait pu enregistrer quoi que ce soit.
Et même les atteintes à l'intimité n'ont réellement de poids que dans un monde puritain, donc généralement structuré par des autorités illibérales.

Ils n'ont pas compris que l'on a pas le choix avec la mondialisation. Si la France bloque la Chine elle continuera et nous serons à la traine.
Je me disais justement qu'il y avait beaucoup trop d'innovation en France.
J'avais lu le rapport sur l'IA et comme eux, j'avais constaté un sacré paquet de conflits d'intérêts, d'articles bidons ou pseudo scientifiques, et de raccourcis trompeurs et techno solutionnistes. L'impression encore une fois, qu'on en revient à cet article: https://research.gold.ac.uk/id/eprint/25962/1/AI-Neoliberalism-PR-Jan2019%20(1).pdf
Un truc qui m'embête, dans un but purement académique :D, c'est que je ne sais pas trop comment citer cette contre expertise (nom des auteurs? page web? rapport?).
Fermer